共情的心智
❦
「镜像神经元」是指这样一种神经元:当你执行某个动作,以及观察同样的动作时,它都会处于活跃状态——例如,当你竖起一根手指,或者看到别人竖起一根手指时,都会放电的神经元。这类神经元已经在灵长类动物身上被直接记录到,而在人类身上也找到了相互一致的神经影像学证据。
你也许还记得我先前在「共情式推断」上的文章里提过这样一种想法:大脑复杂到一个地步,模拟它的唯一办法,就是迫使一个相似的大脑以相似的方式运作。大脑过于复杂了,以至于如果人类试图像理解重力或汽车那样去理解大脑——观察整体,观察部件,再从零开始建立理论——那么在我们凡人的有生之年里,就根本无法提出真正好的假说。你之所以还有可能撞上一个足以描述像他者心智这样极端复杂系统的「啊哈!」时刻,唯一的原因是:你恰好会遇到某个和他者心智惊人相似的东西——也就是你自己的大脑——而你真的可以强迫它以相似的方式运作,并把它当作假说来使用,从而产出预测。
所以,这就是我所谓的「共情」。
而「同情」则是在此之上更进一步的东西——当你看到别人微笑时你也会微笑,当你看到别人受伤时你自己也会疼。它超出了预测的领域,进入了强化的领域。
这也许一开始源于母亲对孩子的爱,或者兄弟姐妹之间的爱。你当然可以希望他们活着,希望他们吃饱;但如果他们微笑时你也会微笑,他们痛苦时你也会皱缩,那就是一种简单得多的冲动,而这种冲动会在生活中的许多场景里,沿着一条宽广的路径把帮助送出去。只要你还处在祖先环境里,你的亲属想要什么,多半就和他们的繁殖成功有关——当然,这说的是选择压力的解释,不是一种有意识的信念。
你也许会问:「为什么不进化出一种更抽象的欲望:只要看到某些被标记为『亲属』的人得到他们想要的东西就行,而不必让你自己也真的感受到他们的感受?」对此,我大概会耸耸肩回答:「因为那样一来,就还得额外定义一整套『想要』之类的东西。进化不会走那条精巧、正确、最优的复杂路径;它更像水往低处流一样,沿着适应度地形跌跌撞撞地往上爬。镜像式的架构本来就已经在那里了,所以从共情走到同情,只需要很短的一步,而且这一步已经足够完成任务。」
先是亲属——然后是互惠;部落中的盟友,那些和你互通人情的人。以牙还牙(Tit for Tat),或者进化在此基础上的进一步 elaboration,用来把社会声誉也纳入考虑。
在人类之中,谁最难对付?最强壮的人?最聪明的人?比起这两者,我认为更常见的答案是:那个能够召来最多朋友的人。
那么,你要怎样才能交到许多朋友?
你当然也许可以拥有一种非常具体的冲动,像吸血蝙蝠那样给盟友带去食物——它们在群落内部就有整套互相献血的系统。但如果你在被指定为朋友的人微笑时也跟着微笑,那就会形成一种更一般的动机,而这种动机会驱使有机体积攒下更多人情。
而什么样的有机体,才能在最一般的意义上避免让自己的朋友对自己生气?就是那种当朋友皱缩时,自己也会跟着皱缩的有机体。
当然,你也会想保留这样一种能力:面对被指定为敌人的对象时,可以毫无愧疚地把他们杀掉——毕竟,我们谈论的可是人类。
但是……我对此并不完全确定,不过在我看来,人类的同情似乎确实默认就是「开启」状态。有些文化会帮助陌生人……也有些文化会吃掉陌生人;问题在于,这两者之中,究竟哪一种需要明确的命令才能发生,而哪一种才是人类的默认行为。我并不真觉得自己是在犯什么疯狂、理想主义、愚不可及的错误;根据我承认相当有限的人类学知识,看起来,同情默认就是开启的。
不管怎样……如果你只是两方战争的旁观者,而你的同情并没有对任何一方被关闭,那么无论照片上的说明文字写着什么,只要你看到一具死去的孩子,你都会感到刺痛;可与此同时,那两个阵营彼此之间却没有任何同情,于是他们继续杀戮。这种情形是很痛苦的。
所以,这就是人类语境中的同情——一种奇异、复杂而深刻的互惠与帮助机制。它把心智彼此缠结在一起——不是通过在效用函数里为另一个心智的「欲望」加上一项,而是通过一条更简单、却后果深远得多的路径:镜像神经元。也就是,去感受另一个心智所感受的东西,并寻求相似的状态。哪怕这一切目前还只是通过观察和推断完成的,而不是靠神经信息的直接传输。
共情是人类用来预测其他心智的一种方式。但它并不是唯一可能的方式。
人类大脑并不能被快速地重新布线;如果你突然被关进一间黑屋子里,你没法在离开之前把视觉皮层改接成听觉皮层,好让自己更好地处理声音;等你离开之后,再突然把所有神经元重新切回视觉皮层。
而 AI——至少是运行在某种接近现代编程架构之上的 AI——却可以轻而易举地把计算资源从一个线程挪到另一个线程。被关进黑暗里?那就关闭视觉,把所有这些运算都投入到声音处理上;把旧程序换出到磁盘,腾出 RAM,等灯亮起来时,再把磁盘里的程序换回来。
那么,为什么 AI 会需要强迫自己的心智进入一种与它想预测之对象相似的状态呢?直接创建一个独立的心智实例就好了——也许还可以采用不同的算法,这样反而更适合模拟那个与它差异极大的人类。别把数据和你自己的心智状态搅成一团;别用镜像神经元。想想那会带来多少风险和混乱吧!
一个期望效用最大化器——尤其是一个确实在抽象层面理解智能的期望效用最大化器——在理解其他心智时,拥有除共情之外的其他选项。这个行动者不需要把自己塞进任何人的鞋子里;它只需要直接对另一个心智建模就行了。那不过是个和其他假说一样的假说,只是稍微大一点。你不需要先变成一双鞋,才能理解一双鞋。
至于同情呢?那么,假设我们面对的是一个期望回形针最大化器,但它还没有强大到可以完全随心所欲——它还得和人类打交道,才能得到它的回形针。所以,这个回形针行动者……会把那些人类建模为环境中相关的一部分,建模他们对各种刺激可能产生的反应,并采取那些会让人类在未来对它抱有好感的行动。
对一个回形针最大化器来说,人类不过是一些带着可按按钮的机器而已。它没有必要去感受对方所感受的东西——前提是,跨越如此巨大的内部架构差异,这件事本身居然还可能。一个期望回形针最大化器,怎么可能在看到一个人类微笑时「感到快乐」?「快乐」是策略强化学习的语言,而不是期望效用最大化的语言。回形针最大化器在制造回形针时并不会感到快乐;它只是选择那个会导向最大期望回形针数量的行动。虽然,回形针最大化器也许会觉得,在它制造回形针的时候露出微笑是方便的——这样更有助于操控那些把它标记为朋友的人类。
你可能会发现,想象这样一种算法有点困难——也就是,把自己塞进某种根本不像你这样运作的东西的鞋子里,而且它的运作方式,也不像你的大脑能够切换出来的任何模式。
你可以让自己的大脑切换到仇恨敌人的模式里,但那也还是不对。要想象一个真正无同情心的心智如何看待人类,办法是把你自己想象成一台有操纵杆、并且对别人有用的机器。不要想成人形机器,因为我们对此有本能。就想成一台锯木机之类的东西。某些操纵杆会让机器吐出硬币;另一些操纵杆则可能让它射出子弹。这台机器确实有一个持续存在的内部状态,而你得按正确的顺序去拉动操纵杆。不过,不管怎样,它终究只是一个复杂的因果系统——其中并没有任何内在地属于心智的东西。
(如果你想理解无同情心的优化过程,我建议你研究一下自然选择;它不会费心去给那些受了致命伤、正在死去的生物麻醉,即便它们的痛苦已经不再服务于任何繁殖目的,因为麻醉本身也同样不会服务于任何繁殖目的。)
这就是为什么,在那张关于要让外星人哪怕只是——如果你愿意原谅我这么说——稍微有那么一点「有同情心」,所必须具备之事物的清单里,我会把「同情」排在甚至「无聊」之前。并不是说,在所有经由进化产生的智能外星物种里,绝不可能有相当一部分也拥有同情;镜像神经元看起来就像那种既然已经发生过一次,就有可能再次发生的东西。
无同情心的外星人也许会成为贸易伙伴——也许不会;反正恒星和诸如此类的资源,在宇宙各处基本都一样。我们也许能和他们谈判条约,而他们也许会出于对报复的算计性恐惧而遵守条约。我们甚至也许能在囚徒困境中与他们合作。但我们永远不会和他们成为朋友。他们永远只会把我们看作达成目的的手段。他们永远不会为我们落下一滴眼泪,也不会因我们的快乐而微笑。而他们自己的同类,也不会得到任何不同的对待;他们自己也不会意识到,自己因此失去了某种重要的东西。
这样的外星人会是 varelse,而不是 ramen——也就是那种我们根本无法在任何个人层面上与之建立关联、因此也没有必要去尝试的外星人。